Mundo

Pesquisadores de Oxford receberam financiamento da ARIA para desenvolver IA com foco em segurança
Pesquisadores da Universidade de Oxford estão liderando dois grandes projetos como parte do programa Safeguarded AI da Agência de Pesquisa e Invenção Avançada (ARIA) do governo do Reino Unido. Apoiado por um financiamento de £ 59 milhões...
Por Oxford - 23/04/2025


Pesquisadores da Universidade de Oxford estão liderando dois grandes projetos para desenvolver novas abordagens técnicas para a implantação segura de IA. Crédito da imagem: BlackJack3D.


Pesquisadores da Universidade de Oxford estão liderando dois grandes projetos como parte do programa Safeguarded AI da Agência de Pesquisa e Invenção Avançada (ARIA) do governo do Reino Unido. Apoiado por um financiamento de £ 59 milhões, este programa visa desenvolver novas abordagens técnicas para a implantação segura da IA.

Como parte da Área Técnica 3 (TA3) do programa, nove equipes de pesquisa em todo o Reino Unido se concentrarão no desenvolvimento de métodos matemáticos e computacionais para fornecer garantias quantitativas de segurança para sistemas de IA. Isso ajudará a garantir que a IA avançada possa ser implantada de forma responsável em setores e domínios críticos para a segurança, como infraestrutura, saúde e manufatura. Dois desses projetos são liderados por pesquisadores da Universidade de Oxford:

Rumo à Validação em Larga Escala da Inteligência Artificial de Processos de Negócios (BPAI).

Liderado pelos professores Nobuko Yoshida e Dave Parker do Departamento de Ciência da Computação de Oxford, este projeto fornecerá garantias quantitativas formais para sistemas baseados em IA em Inteligência de Processos de Negócios (BPI). Utilizando modelos de processos probabilísticos e o conjunto de ferramentas de verificação PRISM, a equipe desenvolverá um fluxo de trabalho para analisar soluções automatizadas de BPI e avaliá-las em relação a benchmarks de segurança. O Pesquisador Associado Sênior Dr. Adrián Puerto Aubel e o Pesquisador Associado Joseph Paulus também contribuirão para o projeto, que envolverá colaboração com a indústria para aplicar os métodos em ambientes práticos.

Os professores Nobuko Yoshida e Dave Parker afirmaram: "Por meio do programa Safeguarded AI, a ARIA está criando espaço para explorar abordagens rigorosas e formais à segurança da IA. Nosso projeto aborda o desafio de verificar sistemas de processos de negócios baseados em IA usando modelos probabilísticos e técnicas de análise automatizadas. Ao desenvolver fluxos de trabalho e benchmarks escaláveis, buscamos fornecer garantias quantitativas que sustentem a implantação segura desses sistemas em ambientes reais."

Da esquerda para a direita: Professora Nobuko Yoshida, Professor Dave Parker (crédito: John Cairns), Professor Associado Thomas Morstyn e Professor Jakob Foerster. 

SAGEflex: Agentes de IA protegidos para flexibilidade na borda da rede

Este projeto visa desenvolver uma estrutura baseada em IA para coordenação escalável e adaptativa de uma rede elétrica líquida zero na Grã-Bretanha, que envolverá milhões de dispositivos adicionais de ponta da rede, incluindo veículos elétricos, bombas de calor e baterias residenciais/comunitárias. Pesquisas mostram que pequenas mudanças na forma como esses dispositivos são usados podem liberar tanta energia quanto várias grandes usinas de energia. Mas gerenciar todos esses dispositivos seria muito complexo para sistemas de controle tradicionais e centralizados.

O projeto SAGEflex explorará uma abordagem baseada em IA chamada aprendizado por reforço multiagente (MARL), que pode ajudar dispositivos a tomar decisões inteligentes e locais enquanto trabalham em conjunto. No entanto, apesar dos sucessos em outras áreas e do trabalho significativo da comunidade de pesquisa em sistemas de energia, a falta de garantias de segurança tem impedido a adoção industrial do MARL por operadores de sistemas e agregadores de flexibilidade.

Uma equipe de pesquisadores do Departamento de Ciências da Engenharia de Oxford abordará isso desenvolvendo especificações de segurança rigorosas, um currículo de problemas de teste e uma plataforma de software que dará suporte ao design, à avaliação comparativa e ao escalonamento de soluções MARL.

O Líder do Projeto, Thomas Morstyn , Professor Associado em Sistemas de Energia, afirmou: "Nosso projeto foi motivado pela falta de abordagens rigorosas para a proteção de IA em aplicações de sistemas de energia, o que identificamos como a lacuna fundamental para a adoção pela indústria. Nossa ambição é dar aos operadores de sistemas de energia confiança na adoção de MARL protegido, liberando grandes quantidades de flexibilidade limpa e de baixo custo para a rede elétrica da Grã-Bretanha. Isso acelerará a descarbonização e ajudará a reduzir as contas de energia dos clientes."

O projeto reúne o Professor Morstyn, com experiência em coordenação de sistemas de energia, e o Professor Jakob Foerster, que traz expertise metodológica em IA e aprendizado por reforço multiagente. O Professor Morstyn lidera o Laboratório de Arquitetura de Sistemas de Energia (PSAL) e o Professor Foerster lidera o Laboratório Foerster para Pesquisa em IA (FLAIR) no Departamento de Ciências da Engenharia da Universidade de Oxford.

Mais informações sobre o programa Safeguarded AI estão disponíveis no site da ARIA .

 

.
.

Leia mais a seguir